![]() 仮想道具操作システム
专利摘要:
仮想現実の分野において、仮想道具操作システム及び関連方法並びにソフトウェアを本開示において説明する。仮想道具操作システムの一実施態様は、中でも、ユーザの身体の一部分の位置に関連する動き情報を生成するように構成される動き追跡システムを備える。仮想道具操作システムは、動き情報、仮想道具の位置、及び仮想道具の特性に基づいてユーザに触感を提供するように構成される触覚フィードバックシステムも備える。 公开号:JP2011509488A 申请号:JP2010542230 申请日:2008-12-09 公开日:2011-03-24 发明作者:ジェー. ウルリッヒ,クリストファー;ジェー. クンクラー,ケヴィン 申请人:イマーション メディカル,インク.; IPC主号:G06F3-01
专利说明:
[0001] 本開示は、包括的には仮想現実に関し、より詳細には、仮想環境内で操作することができる道具をシミュレートすることに関する。] 背景技術 [0002] 実習生は、訓練中、特定の職業に関連する道具の使用方法を学ぶ。通常、訓練プロセスは、実習生が、対象物に対する特定の行為を行うために、監督の下、実際の道具を用いて練習することを含む。たとえば、この点において、対象物は、特に使用されている道具のタイプに依拠して生物又は無生物とすることができる。道具操作技能は、たとえば研修生がその職業において十分に習熟するまで育成することができる。たとえば医療分野であっても、医学生又は外科研修医は、様々なタイプの外科的処置又は介入処置を実施するために特化した道具を扱うための技能を学ぶ。] [0003] 医学訓練では、外科研修医は通常、死体、動物、又は箱型訓練装置に対して、道具を扱うこつを学ぶ。しかしながら、近年、実体が必要とされない仮想環境において研修生が外科的処置を練習することを可能にするシステムが開発されてきた。幾つかの仮想現実システムでは、外科的道具の実際の柄が道具の残りの部分から取り除かれる。次に、3次元空間における道具の位置及び配向を検出するために、センサーが柄の表面に取り付けられる。インタフェースによって、センサーはコンピュータと通信することができ、柄がどのように操作されているかに関する情報が、さらなる処理のためにコンピュータに転送される。仮想領域内の道具のイメージが視覚表示デバイス上に表示され、実際の道具が現実の対象物にどのように影響を与え得るかを視覚においてシミュレートする。] [0004] センサーが道具の柄の表面に取り付けられる従来の仮想現実システムの1つの欠点は、道具毎に特定のシミュレーションハードウェアが必要とされることである。このため、多数の異なる道具のための適切な検知ハードウェア及び検知ソフトウェアを構成することは非常に高価になり得る。従来のシステムのこれらの欠陥及び他の欠陥を克服するために、並びに道具を扱う手順をより現実的にシミュレートするために、道具の操作を伴う仮想現実の分野には、依然としてさらなる改善を行い得る。システムの改善によって、より現実的な訓練を研修生に提供することができるのみでなく、道具設計方法の改善及び新たな器具の迅速な試作と同様に、さらなる利点を提供するための改善を行うこともできる。] [0005] 本開示は、仮想道具をシミュレートするためのシステム、方法、及び関連ソフトウェアアプリケーション、並びに仮想道具を仮想的に扱うためのシステム、方法、及び関連ソフトウェアアプリケーションを説明する。本明細書において説明する多くの実施形態のうちの1つの実施形態によれば、仮想道具操作システムは、ユーザの身体の一部分の位置に関連する動き情報を生成するように構成される動き追跡システムを備える。仮想道具操作システムは、動き情報、仮想道具の位置、及び仮想道具の特性に基づいてユーザに触感を提供するように構成される触覚フィードバックシステムをさらに備える。] [0006] 本明細書に明白に開示されない本開示の他の特徴、利点、及び実施形態は、以下の詳細な説明及び添付の図面を検討した当業者には明らかとなろう。本開示のそのような暗に含まれる実施態様が本明細書に含まれることが意図される。] [0007] 以下の図面内の構成要素は、一定の縮尺で描かれているとは限らない。そうではなく、本開示の一般原理を明確に説明することに重点が置かれている。対応する構成要素を示す参照符号は、一貫性及び明白性のために図面全体を通じて必要であるものとして反復される。] 図面の簡単な説明 [0008] 一実施形態による仮想道具操作システムのブロック図である。 仮想道具を握るように位置決めされた人間の手のビューを示す図である。 一実施形態による、図1に示す処理システムのブロック図である。 一実施形態による、図3に示すメモリのブロック図である。 一実施形態による、図4に示すシミュレーションファイルを示すブロック図である。 一実施形態による、図4に示す相互作用モジュールを示すブロック図である。 一実施形態による、図4に示す出力処理モジュールを示すブロック図である。 図1に示す視覚フィードバックシステムによって表される仮想イメージを示す図である。] 図1 図3 図4 実施例 [0009] 外科的処置のための仮想訓練は、手術が現実にどのように見え得るかのイメージを視覚的に表示するための手段を提供してきた。従来のシステムでは、実際の外科的道具の柄が道具から取り除かれ、仮想領域における外科的道具の位置及び配向を検出するために、柄に多数のセンサーが配置される。しかしながら、柄センサーデバイス、及びデバイスの運動を解釈するための関連ソフトウェアの作成に関わるコストは、特にセンサーデバイス並びに関連するハードウェア及びソフトウェアが道具毎に必要となる場合に非常に高価となり得る。] [0010] 本開示は、任意の道具設定、さらには新たな道具設計のシミュレートを可能にすることによって、従来のシステムのコストを下げた代替形態を提供する。より詳細には、道具の設計は、既存の道具又は新たな道具の設計のいずれであっても、コンピュータ支援設計(CAD)プログラムを使用してメモリ内に入力することができる。本システムは、道具の他の関連特性、たとえば、重さ、重さ配分、重心、自由度、鋭度、弾力性等に加えて道具の設計を使用して、ユーザに触覚フィードバック又は運動感覚フィードバックを提供し、あたかもユーザが実際に実物の道具を把持しているかのような道具の特性の感覚をユーザに与えることができる。触覚フィードバックは、仮想道具の位置、運動、張力等の感覚をユーザに与える。] [0011] 仮想世界において道具をシミュレートすることによって、設計開発中に道具の試作品を実際に製造する必要がない。本開示の教示によれば、ユーザは仮想世界において、該ユーザの仮想道具の制御を確かめるフィードバックを受信しながら、道具がどのように機能し、道具をどのように扱うことができるのかを体験することができる。このように道具をシミュレートする能力を用いて、複数の異なるタイプ及び設計の道具をシミュレートすると共に記憶することができる。シミュレートされる仮想道具は、異なる柄、異なるサイズ、形状、形態、質感等を有することができる。また、シミュレートされている道具のタイプに依拠して、道具を特定の設計に従った任意の適切な方法で仮想的に「握る」ことができる。試作品を製造する必要をなくすこと、又はR&Dフェーズ中の試作品数を劇的に低減することのいずれか、及び個々の道具毎の関連する検知デバイス及び検知ソフトウェアを作成する必要をなくすことの結果として、物理的道具毎に検知構造及び関連ソフトウェアを構成しなくてはならないシステムと比較して、訓練環境内に多数の道具を含むことのコストを大幅に低減することができる。] [0012] 本開示による新たな道具設計に関して、道具の設計をコンピュータに入力し、仮想的に操作することができる。ユーザは、該ユーザに提供される触覚フィードバックを用いて、道具を実際に把持する感覚を体験することができる。そして、道具の設計は、道具の意図される目的を果たすための該道具の使用の容易さ及び感触に基づいて、始めから道具を製造する必要なく、必要に応じて変更することができる。この意味で、物理的材料が必要とされないため、本明細書において説明される実施形態例は、製造コスト及び材料コストの浪費を回避することができる。道具を設計する反復プロセス、すなわち、仮想領域において道具を利用すること、及び道具の設計を微調整することは、より良好な道具設計をもたらすことができ、より短い時間量で達成することができる。] [0013] 図1は、仮想道具操作システム10の一実施形態のブロック図である。この実施形態では、仮想道具操作システム10は、動き追跡システム12と、処理システム14と、触覚フィードバックシステム16と、視覚フィードバックシステム18とを備える。幾つかの実施形態では、仮想道具操作システム10は、必要であれば、音声をユーザに提供する音声フィードバックシステム(図示せず)も備えてもよい。たとえば、音声フィードバックは、特に、特定の音、たとえばモータ、関節運動、摩擦、振動、器具の起動等を生成する部分を有する道具の場合に、仮想体験を向上させるのに役立つことができる。] 図1 [0014] 本明細書における教示によれば、仮想道具操作システム10は、人間の運動、たとえばコンピュータゲーム、手術を含むと共に、任意の職業、たとえば外科医、航空機操縦士、宇宙飛行機、科学者、建設作業員、工員等を含む任意のタイプの動作をシミュレートするために構成することができる。仮想道具操作システム10は、専門家が安全な訓練設定で手順を練習することを可能にするための訓練目的で使用することができる。] [0015] 動き追跡システム12は、3次元空間内の特定の点の運動学又は位置を時間にわたって追跡するための検知デバイスを備えることができる。また、検知デバイスは、これらの点の互いに対する位置若しくは角度を追跡するか、又は他の動き追跡技法を使用することができる。特に、動き追跡システム12は毎秒幾つかの位置測定を行い、連続運動をシミュレートすることができる。幾つかの実施形態では、動き追跡システム12は、ユーザが現実に把持するか又は触れることができる対応する物理要素を含まない。その代わり、この場合、仮想道具は仮想領域内にのみ存在し、完全に仮想のものである。他の実施形態では、動き追跡システム12はユーザが触れることができる物理プロップを備える。この場合の物理プロップは、たとえば、仮想道具とほぼ同じサイズ及び形状を有する柄とすることができる。] [0016] 動き追跡システム12は、たとえば、ユーザの手に装着することができる、CyberGlove(商標)のようなデータグローブを備えることができる。データグローブは、ユーザの手、手首、及び指の幾つかの関節の曲げ角度を測定するためのセンサーを備えることができる。幾つかの実施形態では、動き追跡システム12は、基準点に対する3次元空間内のx位置、y位置、及びz位置を測定することが可能である場合があり、固定の基準フレームに対する空間内の配向を測定することがさらに可能である場合がある。他の実施形態では、動き追跡システム12は、ユーザのイメージを追跡すると共に、必要に応じて、ユーザの1つ又は複数の手、手首、腕、肩、頭、脚、足等のような様々なユーザの身体部分の位置及び配向を計算するための光学動き捕捉デバイスを備えることができる。] [0017] 処理システム14は、動き追跡システム12によって測定された動き情報を管理するための任意の適切な処理構成要素及びストレージ構成要素を備えることができる。図3は、下記でより詳細に説明される、一実施形態による処理システム14を示している。処理システム14は、特定のソフトウェアアプリケーションを使用し、動き情報を分析して、ユーザの動きが仮想世界における人間の操作者にどのように対応するかを確定することができる。処理システム14内に記憶されている仮想道具に対する人間の操作者の運動を確定することができる。人間の操作者が仮想道具を操作すると、処理システム14は、仮想道具と仮想対象物との間の相互作用の結果も確定することができる。処理システム14は、操作者と仮想道具との間の相互作用の計算に基づいて、触覚フィードバックシステム16に適用する触覚フィードバック信号を計算する。また、処理システム14は、仮想操作者と、仮想道具と、仮想対象物との間の相互作用の仮想イメージをユーザに表示するために視覚フィードバックシステム18に適用されるビデオ信号を計算する。] 図3 [0018] 触覚フィードバックシステム16は、任意のタイプの強制フィードバック、振動触覚フィードバック、及び/又は触知性フィードバックをユーザに提供する任意の適切なデバイスを備えることができる。このフィードバックは、ユーザに、シミュレートされた道具を実際に把持している感覚を提供することができる。触覚フィードバックシステム16は、道具の物理的な質感、圧力、力、抵抗、振動等をシミュレートする。それらは幾つかの点で、空間内の道具の運動に関連し、道具と対象物との相互作用を含むことができる。触覚フィードバックシステム16は、たとえば、CyberGrasp(商標)、CyberForce(商標)、CyberTouch(商標)等のようなメカニズムを含む場合があり、それらは、少なくとも力、重さ、抵抗、及び振動の感覚をユーザに加えることができる。] [0019] 視覚フィードバックシステム18は、仮想ゴーグル、表示スクリーン等のような任意の適切な仮想現実表示デバイスを備えることができる。視覚フィードバックシステム18は、道具の外観、及び道具が仮想操作者によって扱われるときにどのように動作するかを示すことができる。視覚フィードバックシステム18は、道具に加えられる様々な力及び作用に道具がどのように反応するか、及び仮想道具の運動又は動作によって対象物がどのように影響されるかも示すことができる。] [0020] 通例、仮想道具操作システム10は以下のように動作する。動き追跡システム12は、ユーザの身体の1つ又は複数の部分、たとえば手の動きを追跡する。動き情報が処理システム14に送信され、処理システム14は該動き情報を処理し、動きが仮想道具にどのように影響を及ぼすかを確定する。また、処理システム14は、仮想道具が特定の対象物とどのように相互作用するかを確定する。処理システム14は、これらの処理手順に応答して、ユーザの特定の動き及び仮想道具の特性に依拠する、ユーザと仮想道具との間の相互作用に基づいて、触覚フィードバック信号を触覚フィードバックシステム16に提供する。また、処理システム14は、仮想現実情報を視覚フィードバックシステム18に提供し、ユーザの手、操作されている道具、及び対象物に対する道具の運動の効果のリアルタイムの視覚的シミュレーションを提供する。さらに、処理システム14は、仮想操作者と、仮想道具と、仮想対象物との間の相互作用に関連する音声信号も作成することができる。] [0021] 図2は、図1の仮想道具操作システム10を使用しているユーザ20の実物の人間の手のビューを示している。このビューでは、ユーザ20は自身の手を、特定の道具、たとえば、メス、ランセット等を扱うのに使用することができる「掌」握り又は「ディナーナイフ」握りに位置決めしている。他の実施形態では、ユーザ20の手は、扱われている仮想道具のタイプに依拠して、別の握り方、たとえば鉛筆握りに位置決めされ得る。ユーザ20は、道具又は他の操作可能な物体を使用して練習又は訓練をしている任意の人間を表すことができる。ユーザ20は、たとえば、外科医、医学生、訓練中の操縦士、科学者、訓練中の宇宙飛行士、建設作業員、機械操作員、工員等とすることができる。たとえば医学分野において、ユーザ20が仮想的に握ることができる道具は、鉗子、締め具、メス、ランセット、トロカール、開創器、採皮刀、内視鏡、腹腔鏡器具等を含むことができる。個々の分野に依拠して、ユーザ20は他のタイプの道具を仮想的に操作することができる。] 図1 図2 [0022] 幾つかの実施形態では、ユーザ20は実際の道具も、又はさらには実際の道具の柄も、実際に掴まない。これは、センサーを備えるように変更された道具の柄の使用を一般的に必要とする従来のシステムとは異なる。他の実施形態では、ユーザ20は、実際の道具の柄のサイズ及び/又は形状に似た物理プロップを掴んでもよい。この図面には詳細に図示されていないが、動き追跡システム12(図1)は、ユーザ20の動きを追跡して、手、指、親指、手首等の配置を確定する。幾つかの実施形態では、動き追跡システム12は、ユーザ20の手の位置特性及び/又は回転特性を検知するための、CyberGlove(商標)又はCyberForce(商標)のようなデータグローブを備えることができる。多くの実施形態では、道具操作は人間の1つの手を伴うが、他の実施形態では両手を使用してもよく、又はさらには、手首、腕、頭、脚、足等のような人間の他の部分を使用してもよい。たとえば、人間の頭の配置を追跡して、仮想シーンに対する人間の目の視覚及び視線を確定し、それによって、視覚フィードバックシステム18による視覚信号の表示のされ方に影響を及ぼすことができる。] 図1 [0023] また、詳細に図示していないが、ユーザ20、及び/又はユーザ20の手に装着されるデータグローブは、触覚フィードバックシステム16(図1)からの触覚フィードバックを受け取ることができる。たとえば、触覚フィードバックシステム16は、CyberGrasp(商標)、CyberForce(商標)、CyberTouch(商標)等のような任意の適切な力フィードバックメカニズムを備えることができる。これらは、データグローブと連携して動作することができる。特に、触覚フィードバックシステム16は、仮想道具があたかも実際の道具であるかのように該仮想道具の感触をシミュレートするための様々なアクチュエータを備えることができる。また、触覚フィードバックシステム16は、重さ、弾力性、自由度等のような仮想道具の他の特性に基づいて、仮想道具の操作感覚を提供すると共に、道具がどのように対象物と相互作用するかに基づいて、感覚フィードバックを提供することができる。したがって、触覚フィードバックシステム16は、シミュレートされている道具のタイプに依拠して、圧力、力、運動抵抗傾向、重力、振動、慣性等の感覚を提供することができる。] 図1 [0024] 図3は、図1に示す処理システム14の一実施形態のブロック図である。この実施形態では、処理システム14は、マイクロプロセッサ22と、メモリ24と、入力/出力デバイス26と、動き追跡インタフェース28と、触覚デバイスインタフェース30と、仮想表示インタフェース32とを備え、それぞれが、内部バス34、又は情報を通信するための他の適切な通信メカニズムによって相互接続されている。処理システム14は、デジタル又はアナログの電気信号を処理及び計算することに関連付けられる他の構成要素及び/又は回路も備えることができる。処理システム14は、ユーザから検出される動き制御信号を処理すると共に、仮想の直面の体験をシミュレートするためのフィードバックをユーザに提供することが可能なコンピュータとして構成することができる。] 図1 図3 [0025] マイクロプロセッサ22は、汎用プロセッサ若しくは専用プロセッサ又はマイクロコントローラとすることができる。メモリ24は、情報、データ、及び/又は命令を記憶するための、内部に固定されたストレージ媒体及び/又は取り外し可能なストレージ媒体を備えることができる。メモリ構成要素内のストレージは、ランダムアクセスメモリ(RAM)のような揮発性メモリ、及び/又は読み出し専用メモリ(ROM)のような不揮発性メモリの任意の組み合わせを含むことができる。メモリ24は、マイクロプロセッサ22が仮想道具操作プログラム又は仮想道具操作手順を実行することを可能にするソフトウェアプログラムも記憶することができる。ユーザの運動を分析し、仮想の人間の操作者と、仮想道具と、仮想対象物との間の仮想相互作用に基づいてユーザに対するフィードバックを調整するための様々な論理命令及び論理コマンドをソフトウェアプログラム内に含めることができる。本開示の仮想道具操作プログラムは、ハードウェア、ソフトウェア、ファームウェア、又はそれらの組み合わせにおいて実装されることができる。仮想道具操作プログラムは、ソフトウェア又はファームウェアにおいて実装される場合、メモリ24内に記憶され、マイクロプロセッサ22によって実行されることができる。仮想道具操作プログラムは、ハードウェアにおいて実装される場合、たとえば、離散論理回路、特定用途向け集積回路(ASIC)、プログラマブルゲートアレイ(PGA)、フィールドプログラマブルゲートアレイ(FPGA)等、又はそれらの任意の組み合わせを使用して実装されることができる。] [0026] 図3の実施形態では、メモリ24は処理システム14の部分として図示されている。他の実施形態では、処理システム14に関連付けられるメモリ構成要素の部分又は全てを他の処理システム内に構成してもよく、又は取り外し可能なストレージデバイス上に組み込んでもよい。また、メモリ24は、モデム又は他のネットワーク通信デバイスを介してアクセス可能な遠隔ストレージも含むことができる。] 図3 [0027] メモリ24は、仮想道具環境の様々な部分をシミュレートするための情報を含むファイルを含む。たとえば、シミュレーションファイルは、道具自身のシミュレーションと、仮想道具の操作者のシミュレーションと、道具の動作によって影響を受ける対象物のシミュレーションとを含むことができる。メモリ24は、仮想道具が他のものとどのように相互作用するかを定義するためのソフトウェアプログラム又はソフトウェアコードも含むことができる。たとえば、操作者と道具との間の相互作用を、道具と対象物との間の相互作用と同様に定義することができる。] [0028] 入力/出力(I/O)デバイス26は、キーボード、キーパッド、カーソル制御デバイス、たとえばコンピュータマウス、又は他のデータ入力デバイスのような入力メカニズムを含む。出力デバイスは、コンピュータモニタ、表示デバイス、プリンタ、又は他の周辺デバイスを含むことができる。I/Oデバイス26は、インターネットのようなネットワークへのアクセスを可能にするための、モデムのような、ネットワークと通信するための装置も含むことができる。I/Oデバイス26は、有線又は無線の伝送を介して内部バス34と通信することができる。] [0029] 動き追跡インタフェース28は、動き追跡システム12(図1)によって受信される情報を受信する。この情報は、一時的に又は長期にわたってメモリ24内に記憶され、ユーザ20の位置及び/又は配向を確定するために処理されることができる。マイクロプロセッサ22は、ユーザ20の動き検出情報を分析することによって仮想道具操作プログラムを実行し、仮想道具に対するこの運動の効果及び仮想対象物に対する該道具の効果を確定する。これらの運動及び相互作用に基づいて、マイクロプロセッサ22は、ユーザ20に適用されることが意図されるフィートバック信号を確定する。触覚デバイスインタフェース30は、触覚フィードバック信号を触覚フィードバックシステム16に転送し、ユーザ20のために、仮想道具の扱い及び制御の触知感覚をシミュレートする。仮想表示インタフェース32は、ビデオ信号を視覚フィードバックシステム18に送信し、ユーザ20のために、仮想対象物に対し仮想道具を使用している仮想操作者の仮想現実イメージをシミュレートする。] 図1 [0030] 図4は、図3に示すメモリ24の一実施形態のブロック図である。この実施形態ではメモリ24は、中でも、仮想道具操作プログラム38と、オペレーティングシステム(O/S)40と、コンピュータ支援設計(CAD)プログラム42とを備える。仮想道具操作プログラム38は、中でも、シミュレーションファイル44と、相互作用モジュール46と、出力処理モジュール48とを備える。幾つかの実施形態では、メモリ24は、インターネットブラウザ、文書処理プログラム等のような他のソフトウェアアプリケーションを含むことができる。CADプログラム42をメモリ24内にインストールして、道具設計者が道具設計の特徴を入力することを可能にすることができる。道具設計の特徴はシミュレーションファイルとして記憶することができる。仮想道具操作者シミュレーション及び仮想対象物に関する情報も、CADプログラム42又は他の入力メカニズムを使用して入力することができる。道具設計に加えて、シミュレーションファイル44は、道具の物理パラメータ及び動作パラメータも含むことができる。他の実施形態では、CADプログラム42を省いてもよく、既存の道具設計ファイルを外部ソースからメモリ24内にロードすることができる。また、道具設計ファイルをインターネットからダウンロードしてメモリ24内に記憶することができる。] 図3 図4 [0031] 仮想道具操作プログラム38は、仮想道具のシミュレーションと、道具操作者のシミュレーションと、道具の動作の対象物のシミュレーションとを管理し、それらはそれぞれシミュレーションファイル44として記憶される。仮想道具操作プログラム38は、シミュレーションファイル44内で定義される、操作者、道具、及び対象物の特性及びプロパティに依拠して、道具が操作者及び対象物とどのように相互作用するかも管理する。それらの相互作用の仕方を、ソフトウェアコードを使用してモデル化及び定義し、相互作用モジュール46として記憶することができる。仮想道具操作プログラム38の出力処理モジュール48は、情報をどのようにユーザ20にフィードバックするかに関するソフトウェアコードを含む。相互作用モジュール46からの、操作者、道具、及び対象物の仮想相互作用に基づいて、出力処理モジュール48は、仮想道具操作体験をシミュレートするために、少なくとも触覚フィードバック及び仮想フィードバックを提供する。仮想道具操作プログラム38、及び本明細書において説明されるような実行可能な論理命令を含む任意の他のプログラム又はソフトウェアコードを、任意の適切な処理デバイスによる実行のために任意の適切なコンピュータ可読媒体内に具現化することができる。コンピュータ可読媒体は、測定可能な時間の長さにわたって、プログラム又はソフトウェアコードを記憶することができる任意の物理媒体を含むことができる。] [0032] 図5は、図4に示すシミュレーションファイル44の一実施形態のブロック図である。この実施形態では、シミュレーションファイル44は、操作者シミュレーションファイル50と、道具シミュレーションファイル52と、対象物シミュレーションファイル54とを含む。操作者シミュレーションファイル50は、仮想の人間のオペレータを定義する情報を含む。特に、ほとんどの道具はユーザの手によって操作されるため、手、手首、及び前腕を、形状、運動、回転、屈曲、運動学等についてシミュレートすることができる。操作者シミュレーションファイル50は、人間の手、指、手首、腕等に存在する関節及び骨の多岐にわたる動きを含む。指の異なる関節についての相対運動情報、及び1本の指の、別の指に対する相対運動も含まれる。操作者シミュレーションファイル50は、人間の手及び手首をモデル化して、6以上の自由度の追跡情報によって、仮想空間内の任意の点で、任意の妥当な角度に配向された仮想の手(複数可)を位置決めすることを可能にすることができる。] 図4 図5 [0033] 他の実施形態では、操作者シミュレーションファイル50は、人間の身体の他の部分を定義する他の情報を含むことができる。たとえば、シミュレートされる道具が、操作者が自身の足を用いてペダルを押すことを伴う場合、操作者シミュレーションファイル50は、様々な足の位置及び配向に関する情報を含む。この点において、操作者シミュレーションファイル50は、人間の身体の2つ以上の部分を定義するデータを含む場合がある。道具によっては、道具を適切に利用するために2つの手が必要となる場合がある。この場合、各手に1つずつ、2つのファイルをモデル化することができる。操作者シミュレーションファイル50の他の実施形態は、ユーザのサイズの変動を計上することができる。たとえば、操作シミュレーションファイル50は、たとえば手が大きな操作者のためにシミュレーション情報を変更することを可能にすることができる。] [0034] 道具シミュレーションファイル52は、パラメータ、特性、及びシミュレートされている特定の道具の機能に関する情報又はデータを記憶する。道具シミュレーションファイル52内の情報を、外部ソースからダウンロードするか、CADプログラム40を使用してローカルで作成することができる。情報は、操作される部分、たとえば柄、ボタン、スイッチ、取っ手等、及び、道具の構造の他の部分、たとえば刃、挟持あご(clampingjaw)、道具ヘッド等を含む、仮想道具の全ての部分のシミュレーションデータを含む。道具シミュレーションファイル52は、サイズ、形状、形態、鋭度、質感、力の衝撃(force impact)、振動、慣性、重心、重さ、重さ配分、自由度、動き角度等のような道具の特性に関する情報も含む。運動抵抗、可撓性、慣性等のような他の特性を使用して道具を定義することもできる。] [0035] シミュレートされる道具のタイプに依拠して、道具シミュレーションファイル52はタイプ毎に大きく異なる場合がある。たとえば、仮想外科的道具はメス、ランセット、クランプ、鉗子、開創器、止血鉗子、採皮刀、内視鏡、腹腔鏡器具等を含むことができる。道具シミュレーションファイルにおいてシミュレートされる大工道具及び建設工具は、たとえば、ハンマー、鋸、ドリル、ピック、金梃子等を含むことができる。建設機器、車両、工場設備等を制御するための機械のような機械動作制御もシミュレートし、道具シミュレーションファイル52として記憶することができる。道具シミュレーションファイル52は、多数のシミュレートされた道具に関する任意の量の情報を含むことができることを理解されたい。たとえば、手術の訓練の場合、外科医は特定の処置のために特定のタイプの道具を必要とする場合がある。これらの道具を、必要に応じてアクセスするための関連道具シミュレーションファイル内に記憶することができる。既存の道具の特性を道具シミュレーションファイル52内にロードすることができるか、又は上記で提言したように、CADプログラム42(図4)のような適切なソフトウェアを使用して新たな道具を設計することができる。道具のそれぞれの物理設計及び機能設計を、道具シミュレーションファイル52内に記憶することができる。] 図4 [0036] 対象物シミュレーションファイル54は、仮想道具の作用を受ける仮想対象物を定義する情報又はデータを含む。対象物は、シミュレートされる道具のタイプに依拠して有生物又は無生物とすることができる。外科的道具の場合、対象物は一般に、人間、又は獣医学の場合は動物のような有生物である。人間又は動物の身体構造及び生物学をモデル化し、対象物シミュレーションファイル54内に記憶することができる。身体構造は、身体、皮膚、細胞、臓器、骨、筋肉、靭帯、腱等を含むことができる。ユーザが実施している仮想処置のタイプに依拠して、必要に応じて身体構造の他の部分も対象物シミュレーションファイル54内に組み込むことができる。対象物シミュレーションファイル54は、可撓性、強度、運動抵抗、慣性、弾力性、切断又は穿刺が可能であるか等のような対象物の特性を含むことができる。また、対象物シミュレーションファイル54は、必要に応じて広範な特性を有するように実装することができる。たとえば、患者のサイズ、体型、年齢、性別等の違いをモデル化し、外科的処置のタイプを適切な身体タイプと一致させることができる。] [0037] 幾つかの実施形態では、モデルを適合させるか又は特定の患者のCATスキャン、CTスキャン、X線等から導出して、手術される患者の仮想表現をシミュレートすることができる。この意味において、外科医は仮想患者に対する外科的処置を実行して、患者の実際の状態、及び併発し得る任意のリスク又は合併症をより良好に理解することができる。また、対象物シミュレーションファイル54は、特定の外科的処置に適用可能である場合、男性患者と女性患者との生体構造の違いを含むことができる。] [0038] 建造物建築及び機械操作の分野では、道具は一般的に、製材、乾式壁、梁、桁、釘、ねじ、鋲、又は他の建材のような無生物に対して使用される。他の対象物は、土、泥、岩、コンクリート等を含むことができる。対象物の特性は、対象物のサイズ、形状、重さ、可撓性等を定義するようにモデル化することができる。仮想道具を仮想世界においてシミュレート及び操作することができる他の分野では、該道具の作用を受ける他の特定の対象物を、現実の同様の対象物を反映するようにシミュレートすることができる。] [0039] 図6は、図4に示す相互作用モジュール46の一実施形態のブロック図である。この実施形態では、相互作用モジュール46は、操作者/道具相互作用モジュール60と、道具/対象物相互作用モジュール62とを含む。幾つかの実施形態では、操作者が実際に対象物に接触する状況が当てはまり得る場合、相互作用モジュール44は操作者/対象物相互作用モジュール64も含むことができる。操作者/対象物相互作用モジュール64は、操作者が対象物を直接検知して、道具を保持している場合がある別の手に対する対象物の位置の理解を知覚することができる現実環境をシミュレートするのに役立ち得る。] 図4 図6 [0040] 操作者/道具相互作用モジュール60は、操作者及び道具がどのように互いに相互作用するかを定義するためのソフトウェアプログラム又はソフトウェアコードを含む。操作者/道具相互作用モジュール60は、操作者シミュレータファイル50及び道具シミュレーションファイル52から情報を検索して、それぞれの特性を確定する。操作者の運動及び道具の特性に基づいて、操作者/道具相互作用モジュール60は、道具が仮想領域内でどのように移動するか、及びどのタイプの触覚フィードバックを道具が操作者に提供し得るかを確定する。道具が不恰好に掴まれている場合、触覚フィードバックは、握り方を正す必要があるか否かを検知することができるという点で、ユーザに役立ち得る。また、ユーザは、触覚フィードバックから道具の感触をより良好に理解することが可能である場合がある。また、操作者の、道具に対する順応性に依拠して、道具を扱う実際の感覚をシミュレートするための特定の力又は圧力を確定することができる。道具の運動及び配向は、操作者によって適用される力に依拠し、重力及び慣性のような他の力にも反応する場合がある。] [0041] 道具/対象物相互作用モジュール62は、道具と対象物とがどのように互いに相互作用するかを定義するためのソフトウェアプログラム及び/又はコードを含む。道具/対象物相互作用モジュール62は、道具シミュレーションファイル52及び対象物シミュレーションファイル54から情報を検索して、それぞれの特性を確定する。道具及び対象物の相互作用は、たとえば、道具の位置、配向、及び運動に基づき得る。また、対象物の強度及び他の特性に基づいて、道具は自身の運動において何らかの抵抗を受ける場合がある。幾つかの状況では、この抵抗を操作者/道具相互作用モジュール60に適用し、この抵抗を操作者に移すことができる。この場合、操作者は、さらなる力を加えるか、又は自身の運動を必要に応じて変えることが必要とされる場合がある。特定の道具機能への対象物の反応も、道具/対象物相互作用モジュール62によって確定することができる。たとえば、対象物が仮想手術患者である場合、対象物、及び道具の効果を受ける対象物の部分に対して実施された処置のタイプに依拠して、道具の使用の結果、出血又は他の反応が生じる場合がある。仮想建築設定では、対象物はたとえば仮想木材とすることができ、仮想道具は、道具と木材との相互作用の結果として仮想のおがくずを生成することができる。道具と対象物との間のこれらの相互作用及び他の相互作用を、道具/対象物相互作用モジュール62内にプログラムして、道具に対する対象物の現実の反応、及び対象物が道具に課し得る任意のフィードバックをシミュレートすることができる。] [0042] 図7は、図4に示す出力処理モジュール46の一実施形態のブロック図である。この実施形態では、出力処理モジュール46は、触覚フィードバック処理モジュール70と、音声/ビデオ処理モジュール72とを含む。仮想道具操作システム10が、音声特徴を提供するためのオプションの音声フィードバックシステムを備える実施形態の場合、出力処理モジュール46は音声処理モジュールを含むことができる。この点において、音声処理モジュールは操作者と、道具と、対象物との間の様々な相互作用に基づいてサウンド効果を生成することができる。] 図4 図7 [0043] 操作者と、道具と、対象物との間の相互作用を確定した結果、触覚フィードバック処理モジュール70は、特定の力、圧力、振動等のフィードバックを操作者に提供することができる。触覚フィードバック処理モジュール70は、操作者/道具相互作用モジュール60及び操作者/対象物相互作用モジュール64から触覚信号を導出するのみでなく、道具と対象物との間の相互作用から生じる場合がある、道具/対象物相互作用モジュール62からの間接的な触覚信号を導出することができる。触覚フィードバック処理モジュール70内で処理された触覚信号を、触覚デバイスインタフェース30(図3)を介して触覚フィードバックシステム16(図1)に送信することができる。使用されている触覚フィードバックシステム16のタイプに基づいて、触覚フィードバック処理モジュール70は触覚信号を変更して、触覚フィードバックシステム16が適切なフィードバックをユーザに提供することを可能にすることができる。] 図1 図3 [0044] 出力処理モジュール46は、仮想現実ビデオイメージ信号を生成するビデオ処理モジュール72も含む。ビデオ処理モジュール72は、3次元の仮想世界の物体を2次元の表示スクリーンにレンダリングするためのグラフィック処理デバイスを備えることができる。ビデオ処理モジュール72によって生成されたビデオイメージ信号は、仮想表示インタフェース32(図3)を介して、視覚フィードバックシステム18(図1)に送信される。] 図1 図3 [0045] 図8は、一実施例によるリアルタイム仮想ビュー80のスナップショットを示している。この仮想ビュー80は、仮想操作者82、仮想道具84、及び仮想対象物86のイメージを含む。特に、仮想操作者82は、仮想外科医の人間の手である。また、仮想操作者82は、仮想対象物86に対し仮想道具84を課すように仮想道具84を扱っているのが示されている。この実施例において、仮想対象物86は、仮想患者の生体構造である。道具と仮想対象物86との相互作用に起因して、仮想道具84の仮想患者に対する効果も同様に示され得る。この場合、仮想道具84は、仮想患者の皮膚を切開するのに使用されるメスである。] 図8 [0046] 本明細書において説明したステップ、プロセス、又は動作は、ソフトウェア又はファームウェア内に実装することができる任意のモジュール又はコードシーケンスを表すことができることを理解されたい。これに関して、これらのモジュール及びコードシーケンスは、物理構成要素内で特定の論理ステップ、プロセス、又は動作を実行するためのコマンド又は命令を含むことができる。当業者であれば理解するように、本明細書において説明したステップ、プロセス、及び/又は動作の1つ又は複数を、ほぼ同時に、又は明示的に説明したのとは異なる順序で実行することができることをさらに理解されたい。] [0047] 本明細書において説明した実施形態は、単に実施形態の例を表すものであり、本開示をいかなる特定の実施形態にも不必要に限定するように意図されるものではない。そうではなく、当業者であれば理解するように、これらの実施形態に様々な変更を行うことができる。いかなるそのような変更も、本開示の精神及び範囲内に含まれると共に、以下の特許請求の範囲によって保護されるものと意図される。]
权利要求:
請求項1 仮想道具操作システムであって、ユーザの身体の一部分の位置に関連する動き情報を生成する動き追跡システムと、前記動き情報、仮想道具の位置、及び該仮想道具の特性に基づいて、前記ユーザに触感を提供する触覚フィードバックシステムと、を備える、仮想道具操作システム。 請求項2 前記動き情報を処理して触覚フィードバック信号を生成する処理システムであって、前記触覚フィードバック信号を前記触覚フィードバックシステムに送信する処理システムをさらに備え、前記触覚フィードバック信号は前記触感に関連する、請求項1に記載の仮想道具操作システム。 請求項3 前記処理システムは、マイクロプロセッサと、メモリと、第1のインタフェースデバイスと、第2のインタフェースデバイスとを備え、前記第1のインタフェースデバイスは前記動き追跡システムと通信し、前記第2のインタフェースデバイスは前記触覚フィードバックシステムと通信する、請求項2に記載の仮想道具操作システム。 請求項4 前記動き情報、前記仮想道具の前記位置、前記仮想道具の設計、及び前記仮想道具の効果を受け取る仮想対象物に基づいて、前記ユーザにビデオイメージを提供する視覚フィードバックシステムをさらに備える、請求項1に記載の仮想道具操作システム。 請求項5 前記動き追跡システムはデータグローブを備える、請求項1に記載の仮想道具操作システム。 請求項6 前記動き追跡システムは光学動き捕捉システムを備える、請求項1に記載の仮想道具操作システム。 請求項7 前記動き追跡システムは訓練中の人間の動きを追跡し、触覚フィードバックシステムは訓練中の人間に触覚フィードバックを提供する、請求項1に記載の仮想道具操作システム。 請求項8 前記訓練中の人間は研修医であり、前記仮想道具は仮想外科的道具であり、該仮想外科的道具の作用を受けている対象物は仮想患者である、請求項7に記載の仮想道具操作システム。 請求項9 前記仮想道具は、現実の対応する物理構造を含まない、請求項1に記載の仮想道具操作システム。 請求項10 前記仮想道具に対応する物理プロップをさらに備える、請求項1に記載の仮想道具操作システム。 請求項11 処理デバイスであって、仮想道具操作プログラムを記憶するメモリデバイスと、前記仮想道具操作プログラムを実行するマイクロプロセッサと、ユーザの動きを表す動き情報を受信する動き追跡インタフェースと、触覚フィードバックデバイスを制御するための触覚フィードバック信号を生成する触覚デバイスインタフェースと、を備え、前記仮想道具操作プログラムは外科的処置をシミュレートする、処理デバイス。 請求項12 道具設計者が道具設計を前記メモリデバイスに入力することを可能にする入力/出力(I/O)デバイスをさらに備える、請求項11に記載の処理デバイス。 請求項13 視覚フィードバックシステムへのビデオ信号を生成する仮想表示インタフェースをさらに含む、請求項11に記載の処理デバイス。 請求項14 前記仮想道具操作プログラムはコンピュータ可読媒体上で実施される、請求項11に記載の処理デバイス。 請求項15 前記仮想道具操作プログラムは、シミュレーションファイルと、相互作用モジュールと、出力処理モジュールとを備え、前記シミュレーションファイルは、仮想操作者、仮想道具、及び仮想対象物をシミュレートし、前記相互作用モジュールは、前記仮想操作者と前記仮想道具との間の第1の相互作用、及び前記仮想道具と前記仮想対象物との間の第2の相互作用をシミュレートし、前記出力処理モジュールは、前記ユーザの少なくとも1つの感覚を刺激する信号を生成する、請求項14に記載の処理装置。 請求項16 前記出力処理モジュールは触覚フィードバック信号及び仮想現実イメージ信号を生成する、請求項15に記載の処理装置。 請求項17 コンピュータ可読媒体上に記憶される仮想道具操作プログラムであって、仮想道具、仮想道具操作者、及び仮想対象物の特性を定義するシミュレーションデータと、前記仮想道具と、前記仮想道具操作者及び前記仮想対象物のうちの少なくとも一方との間の相互作用を定義するロジックと、触覚フィードバックシステムを制御してユーザに対して触感を引き起こすための出力情報を生成するロジックと、を備える、仮想道具操作プログラム。 請求項18 前記仮想道具を定義する前記シミュレーションデータは、仮想外科的道具を定義し、前記仮想道具操作者を定義する前記シミュレーションデータは、仮想外科医を定義し、前記仮想対象物を定義する前記シミュレーションデータは、仮想患者を定義する、請求項17に記載の仮想道具操作プログラム。 請求項19 前記相互作用モジュールは、前記仮想道具操作者と前記仮想道具との間の前記相互作用を分析するための操作者/道具相互作用モジュールと、前記仮想道具と前記仮想対象物との間の前記相互作用を分析するための道具/対象物相互作用モジュールと、を備える、請求項17に記載の仮想道具操作プログラム。 請求項20 前記相互作用モジュールは、前記仮想道具操作者と前記仮想対象物との間の前記相互作用を分析するための操作者/対象物相互作用モジュールをさらに備える、請求項19に記載の仮想道具操作プログラム。 請求項21 出力情報を生成する前記ロジックは、触覚フィードバック処理モジュールと、仮想現実処理モジュールとを含み、前記触覚フィードバック処理モジュールは、前記触覚フィードバックシステムを制御するための触覚フィードバック信号を生成し、前記仮想現実処理モジュールは、前記ユーザにイメージを表示する視覚フィードバックシステムに対するビデオ信号を生成し、請求項17に記載の仮想道具操作プログラム。 請求項22 前記出力処理モジュールは、前記ユーザに音声出力を提供するための音声信号を生成する音声処理モジュールをさらに備える、請求項17に記載の仮想道具操作プログラム。 請求項23 前記仮想道具は専ら仮想領域内にのみ存在する、請求項17に記載の仮想道具操作プログラム。
类似技术:
公开号 | 公开日 | 专利标题 JP6659547B2|2020-03-04|Simulator system for medical procedure training US9142145B2|2015-09-22|Medical training systems and methods CN105303605B|2017-10-13|一种基于力反馈的骨外科手术仿真系统 Lin et al.2014|Development and validation of a surgical training simulator with haptic feedback for learning bone-sawing skill Meli et al.2014|Sensory subtraction in robot-assisted surgery: fingertip skin deformation feedback to ensure safety and improve transparency in bimanual haptic interaction Coles et al.2010|The role of haptics in medical training simulators: a survey of the state of the art Basdogan et al.2001|Virtual environments for medical training: graphical and haptic simulation of laparoscopic common bile duct exploration Badler et al.1993|Real-time control of a virtual human using minimal sensors Hinckley et al.1997|Cooperative bimanual action Massie1996|Initial haptic explorations with the phantom: Virtual touch through point interaction US9607528B2|2017-03-28|Combined soft tissue and bone surgical simulator Basdogan et al.2004|Haptics in minimally invasive surgical simulation and training Okamura et al.2004|Force modeling for needle insertion into soft tissue EP1402503B1|2007-08-15|Programmierbarer gelenksimulator mit kraft- und bewegungsfeedback EP2252231B1|2019-10-16|System and method for robotic surgery simulation ES2433437T3|2013-12-11|Método y aparato para control háptico Escobar-Castillejos et al.2016|A review of simulators with haptic devices for medical training ES2679125T3|2018-08-22|Sistema para la visualización interactiva en tiempo real de fuerzas musculares y pares articulares en el cuerpo humano Hinckley1997|Haptic issues for virtual manipulation Gibson et al.2008|Finite element simulation of the spine with haptic interface Borst et al.2005|Realistic virtual grasping US7241145B2|2007-07-10|Birth simulator US6088020A|2000-07-11|Haptic device KR101173824B1|2012-08-16|수술 도구 CN104685551B|2017-07-21|混合现实仿真方法和系统
同族专利:
公开号 | 公开日 US20090177452A1|2009-07-09| JP6049788B2|2016-12-21| US9881520B2|2018-01-30| EP2240840A2|2010-10-20| EP3346372A1|2018-07-11| WO2009088612A3|2010-02-18| WO2009088612A2|2009-07-16| US20180137782A1|2018-05-17| JP2015133143A|2015-07-23|
引用文献:
公开号 | 申请日 | 公开日 | 申请人 | 专利标题 JPH0744312A|1993-07-29|1995-02-14|Toshiba Comput Eng Corp|仮想現実感システム用データグローブ| JPH11195140A|1997-12-27|1999-07-21|Canon Inc|データ処理方法及び装置並びに記憶媒体| JP2000259074A|1999-03-11|2000-09-22|Minolta Co Ltd|道具媒介型の力覚呈示システム| JP2001100879A|1999-09-27|2001-04-13|Olympus Optical Co Ltd|情報閲覧システム| JP2004318400A|2003-04-15|2004-11-11|Seiko Epson Corp|画像処理装置及び画像処理方法|KR101303994B1|2010-11-24|2013-09-04|한국전자통신연구원|가상 현실 기반 훈련 가이드 시스템 및 그 방법| JP2015141647A|2014-01-30|2015-08-03|和俊 尾花|情報処理装置、情報処理プログラム、情報処理システム、および情報処理方法|US4988981B1|1987-03-17|1999-05-18|Vpl Newco Inc|Computer data entry and manipulation apparatus and method| US4907973A|1988-11-14|1990-03-13|Hon David C|Expert system simulator for modeling realistic internal environments and performance| US5143505A|1991-02-26|1992-09-01|Rutgers University|Actuator system for providing force feedback to a dextrous master glove| US5731804A|1995-01-18|1998-03-24|Immersion Human Interface Corp.|Method and apparatus for providing high bandwidth, low noise mechanical I/O for computer systems| JP3539645B2|1995-02-16|2004-07-07|株式会社日立製作所|遠隔手術支援装置| US5800179A|1996-07-23|1998-09-01|Medical Simulation Corporation|System for training persons to perform minimally invasive surgical procedures| US5828197A|1996-10-25|1998-10-27|Immersion Human Interface Corporation|Mechanical interface having multiple grounded actuators| US6324296B1|1997-12-04|2001-11-27|Phasespace, Inc.|Distributed-processing motion tracking system for tracking individually modulated light points| US6126450A|1998-02-04|2000-10-03|Mitsubishi Denki Kabushiki Kaisha|Medical simulator system and medical simulator notifying apparatus| US6421048B1|1998-07-17|2002-07-16|Sensable Technologies, Inc.|Systems and methods for interacting with virtual objects in a haptic virtual reality environment| US6113395A|1998-08-18|2000-09-05|Hon; David C.|Selectable instruments with homing devices for haptic virtual reality medical simulation| US7084884B1|1998-11-03|2006-08-01|Immersion Corporation|Graphical object interactions| WO2001018617A1|1999-09-09|2001-03-15|Rutgers, The State Of University Of New Jersey|Remote mechanical mirroring using controlled stiffness and actuators | US6377011B1|2000-01-26|2002-04-23|Massachusetts Institute Of Technology|Force feedback user interface for minimally invasive surgical simulator and teleoperator and other similar apparatus| US20020133264A1|2001-01-26|2002-09-19|New Jersey Institute Of Technology|Virtual reality system for creation of design models and generation of numerically controlled machining trajectories| WO2002070980A1|2001-03-06|2002-09-12|The Johns Hopkins University School Of Medicine|Simulation system for image-guided medical procedures| US20050202384A1|2001-04-20|2005-09-15|Medtronic, Inc.|Interactive computer model of the heart| US7202851B2|2001-05-04|2007-04-10|Immersion Medical Inc.|Haptic interface for palpation simulation| DE60130264T2|2001-06-13|2008-05-21|Volume Interactions Pte. Ltd.|Führungssystem| US6937033B2|2001-06-27|2005-08-30|Immersion Corporation|Position sensor with resistive element| US7877243B2|2001-07-16|2011-01-25|Immersion Corporation|Pivotable computer interface| US20060084050A1|2004-01-12|2006-04-20|Haluck Randy S|Portable virtual reality medical demonstration and training apparatus| US8317518B2|2005-01-28|2012-11-27|University Of Maryland, Baltimore|Techniques for implementing virtual persons in a system to train medical personnel| WO2005084209A2|2004-02-27|2005-09-15|University Of Florida Research Foundation, Inc.|Interactive virtual characters for training including medical diagnosis training| US7376903B2|2004-06-29|2008-05-20|Ge Medical Systems Information Technologies|3D display system and method| US7930065B2|2005-12-30|2011-04-19|Intuitive Surgical Operations, Inc.|Robotic surgery system including position sensors using fiber bragg gratings| US20080009771A1|2006-03-29|2008-01-10|Joel Perry|Exoskeleton| WO2008017080A2|2006-08-03|2008-02-07|Hansen Medical, Inc.|Systems for performing minimally invasive procedures|WO2009047661A2|2007-10-09|2009-04-16|Tel Hashomer Medical Research Infrastructure & Services Ltd.|Sensory training tool| KR100927009B1|2008-02-04|2009-11-16|광주과학기술원|증강 현실에서의 햅틱 상호 작용 방법 및 그 시스템| US20100248200A1|2008-09-26|2010-09-30|Ladak Hanif M|System, Method and Computer Program for Virtual Reality Simulation for Medical Procedure Skills Training| US8662900B2|2009-06-04|2014-03-04|Zimmer Dental Inc.|Dental implant surgical training simulation system| JP5414380B2|2009-06-23|2014-02-12|キヤノン株式会社|画像処理方法及び画像処理装置| US8682489B2|2009-11-13|2014-03-25|Intuitive Sugical Operations, Inc.|Method and system for hand control of a teleoperated minimally invasive slave surgical instrument| US8521331B2|2009-11-13|2013-08-27|Intuitive Surgical Operations, Inc.|Patient-side surgeon interface for a minimally invasive, teleoperated surgical instrument| BR112012011323B1|2009-11-13|2020-02-04|Intuitive Surgical Operations|minimally invasive surgical system| US10580325B2|2010-03-24|2020-03-03|Simbionix Ltd.|System and method for performing a computerized simulation of a medical procedure| US8842893B2|2010-04-30|2014-09-23|Medtronic Navigation, Inc.|Method and apparatus for image-based navigation| EP2577642A4|2010-05-26|2016-06-08|Health Research Inc|Method and system for minimally-invasive surgery training using tracking data| US8996173B2|2010-09-21|2015-03-31|Intuitive Surgical Operations, Inc.|Method and apparatus for hand gesture control in a minimally invasive surgical system| US8935003B2|2010-09-21|2015-01-13|Intuitive Surgical Operations|Method and system for hand presence detection in a minimally invasive surgical system| US8519835B2|2011-03-02|2013-08-27|Htc Corporation|Systems and methods for sensory feedback| WO2012123033A1|2011-03-17|2012-09-20|Ssi Schaefer Noell Gmbh Lager Und Systemtechnik|Steuerung und überwachung einer lager- und kommissionieranlage durch bewegung und sprache| US8992230B2|2012-01-23|2015-03-31|Virtamed Ag|Medical training systems and methods| US9424761B2|2012-01-23|2016-08-23|Virtamed Ag|Medical simulation system and method with configurable anatomy model manufacturing| WO2013134338A1|2012-03-08|2013-09-12|Services Petroliers Schlumberger|Computer-based method for 3d simulation of oil and gas operations| WO2014056003A2|2012-10-03|2014-04-10|Pham Quoc Dat|Systems and methods for monitoring manufacturing processes through the exchange of information in real time| US9367136B2|2013-04-12|2016-06-14|Microsoft Technology Licensing, Llc|Holographic object feedback| CN106456145B|2014-05-05|2020-08-18|维卡瑞斯外科手术股份有限公司|虚拟现实手术装置| US10055018B2|2014-08-22|2018-08-21|Sony Interactive Entertainment Inc.|Glove interface object with thumb-index controller| US20180090029A1|2016-09-29|2018-03-29|Simbionix Ltd.|Method and system for medical simulation in an operating room in a virtual reality or augmented reality environment| US10810899B1|2016-12-05|2020-10-20|Google Llc|Virtual instruction tool| WO2018118858A1|2016-12-19|2018-06-28|National Board Of Medical Examiners|Medical training and performance assessment instruments, methods, and systems| CA3051258A1|2017-02-09|2018-08-16|Vicarious Surgical Inc.|Virtual reality surgical tools system| KR20180098174A|2017-02-24|2018-09-03|주식회사 브이알애드|가상현실 기반 방사선학 실습 장치 및 방법| CN108310630A|2018-01-30|2018-07-24|深圳市前海未来无限投资管理有限公司|一种动作训练设备、装置及存储介质| US10698493B1|2019-06-26|2020-06-30|Fvrvs Limited|Virtual reality surgical training systems with advanced haptic feedback|
法律状态:
2011-12-01| A621| Written request for application examination|Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111130 | 2012-07-11| RD04| Notification of resignation of power of attorney|Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20120710 | 2013-04-17| A977| Report on retrieval|Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130417 | 2013-04-24| A131| Notification of reasons for refusal|Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130423 | 2013-07-23| A521| Written amendment|Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130722 | 2014-03-05| A131| Notification of reasons for refusal|Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140304 | 2014-06-04| A521| Written amendment|Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140603 | 2014-11-19| A02| Decision of refusal|Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20141118 |
优先权:
[返回顶部]
申请号 | 申请日 | 专利标题 相关专利
Sulfonates, polymers, resist compositions and patterning process
Washing machine
Washing machine
Device for fixture finishing and tension adjusting of membrane
Structure for Equipping Band in a Plane Cathode Ray Tube
Process for preparation of 7 alpha-carboxyl 9, 11-epoxy steroids and intermediates useful therein an
国家/地区
|